Markov-Prozess

Markov-Prozess
stochastischer Prozess (Xt)0 < t < ∞ mit abzählbarem Zustandsraum (Wertemenge) E, bei dem für alle n Σ \{0, 1, ...\} und alle t > s > sn > .. > s0 bez. der bedingten Wahrscheinlichkeiten gilt:
mit j, i, i0, ..., in ∈ E.
- P \{Xt = j | Xs = i\} heißt Übergangswahrscheinlichkeit (Wahrscheinlichkeit, dass der Prozess zum Zeitpunkt s den Zustand i hat, wenn er zum Zeitpunkt t den Zustand j hatte).
- Ist der Zustandsraum endlich, so wird der M.-P. endlich genannt.
- Bedeutung: Die „Markov-Eigenschaft“ eines stochastischen Prozesses beschreibt, dass die Wahrscheinlichkeit des Übergangs von einem Zustand in den nächstfolgenden von der „Vorgeschichte“ unabhängig ist.

Lexikon der Economics. 2013.

Игры ⚽ Поможем решить контрольную работу

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Markov-Prozess — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Semi-Markov-Prozess — Ein Semi Markow Prozess (SMP), auch bekannt als Markow Erneuerungsprozess, ist eine Verallgemeinerung eines Markow Prozesses. Im Unterschied zu einem Markow Prozess, dessen Zustandsänderungen in gleichen Zeitabständen erfolgen, wird hierbei die… …   Deutsch Wikipedia

  • Markov-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov-Eigenschaft — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • Markov Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… …   Deutsch Wikipedia

  • OU-Prozess — Drei Pfade von unterschiedlichen Ornstein Uhlenbeck Prozessen mit σ=0.3, θ=1, μ=1.2: navy: Startwert a=0 (f. s.) olivgrün: Startwert a=2 (f. s.) rot: Startwert gezogen aus der stationären Vert …   Deutsch Wikipedia

  • Ornstein-Uhlenbeck-Prozess — Drei Pfade von unterschiedlichen Ornstein Uhlenbeck Prozessen mit σ=0.3, θ=1, μ=1.2: navy: Startwert a=0 (f. s.) olivgrün: Startwert a=2 (f. s.) rot: Startwert gezogen aus der stationären Verteilung des Prozesses. Der Ornstein Uhlenbeck …   Deutsch Wikipedia

  • stochastischer Prozess — ⇡ Zufallsvektor, der in Abhängigkeit von der Zeit t betrachtet wird. Liegt speziell eine eindimensionale ⇡ Zufallsvariable X(t) vor, dann ist für diese zu jedem t eine bestimmte ⇡ Verteilung gegeben. Je nachdem, ob für jedes reelle t oder nur für …   Lexikon der Economics

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”